81 research outputs found

    Compute Less to Get More: Using ORC to Improve Sparse Filtering

    Full text link
    Sparse Filtering is a popular feature learning algorithm for image classification pipelines. In this paper, we connect the performance of Sparse Filtering with spectral properties of the corresponding feature matrices. This connection provides new insights into Sparse Filtering; in particular, it suggests early stopping of Sparse Filtering. We therefore introduce the Optimal Roundness Criterion (ORC), a novel stopping criterion for Sparse Filtering. We show that this stopping criterion is related with pre-processing procedures such as Statistical Whitening and demonstrate that it can make image classification with Sparse Filtering considerably faster and more accurate

    PixColor: Pixel Recursive Colorization

    Full text link
    We propose a novel approach to automatically produce multiple colorized versions of a grayscale image. Our method results from the observation that the task of automated colorization is relatively easy given a low-resolution version of the color image. We first train a conditional PixelCNN to generate a low resolution color for a given grayscale image. Then, given the generated low-resolution color image and the original grayscale image as inputs, we train a second CNN to generate a high-resolution colorization of an image. We demonstrate that our approach produces more diverse and plausible colorizations than existing methods, as judged by human raters in a "Visual Turing Test"

    La pena de muerte desde la bioética y los derechos humanos

    Get PDF
    Se ofrece una reflexión de la pena de muerte, que parte de premisas esenciales desde la bioética y los derechos humanos. Se plantean algunas generalidades de esta disciplina, dado que orientan a un cuestionamiento respecto al aporte de la ciencia y la tecnología para llevar a cabo ejecuciones más humanas. Enseguida se recurre a los conceptos de vida, persona y dignidad para enmarcar el argumento en los derechos humanos. Se retoman algunas sentencias de documentos internacionales apelando a un desarrollo del hombre desde la ética: la práctica de la pena máxima, por el contrario, lo retiene. Así pues, se anticipa que lo humano nunca se hallará en la aniquilación de su propio género.Se ofrece una reÁexión de la pena de muerte, que parte de premisas esenciales desde la bioética y los derechos humanos. Se plantean algunas generalidades de esta disciplina, dado que orientan a un cuestionamiento respecto al aporte de la ciencia y la tecnología para llevar a cabo “ejecuciones más humanas”. Enseguida se recurre a los conceptos de vida, persona y dignidad para enmarcar el argumento en los derechos humanos. Se retoman algunas sentencias de documentos internacionales apelando a un desarrollo del hombre desde la ética: la práctica de la pena máxima, por el contrario, lo retiene. Así pues, se anticipa que lo humano nunca se hallará en la aniquilación de su propio género

    Rerpresentación del conocimiento impreciso: Revisión parcial de las teorías de conjuntos borrosos.

    Full text link
    Este trabajo comienza con una descripción del concepto de conocimiento, una clasicación de los tipos de conocimientos que nos interesan y una relación de los métodos que se han usado para representar los distintos tipos de conocimientos, así como el interés en usar la lógica borrosa para representar conocimiento impreciso. En el capítulo 2 expondremos qué son los conjuntos borrosos y su origen, así como, las distintas interpretaciones que se hacen de los conjuntos borrosos y las diferentes técnicas utilizadas para hallar su función de pertenencia. En el capítulo 3 efectuaremos una recopilación de las teorías de conjuntos borrosos hasta llegar a las teorías estándar y las teorías de conjuntos imprecisos, como propuesta axiomática para intentar clarificar qué es una teoría de conjuntos borrosos. También plantearemos las limitaciones que éstas tienen para representar conocimiento impreciso. En el capítulo 4 expondremos un nuevo concepto de conjunto borroso como representación del uso de un predicado en el lenguaje. Propondremos después, un método para representar predicados, variables lingüísticas, relaciones entre predicados y razonamiento no formal (basado en conocimiento), apoyado en el uso de varias teorías estándar. En el capítulo 5 explicaremos las características del sistema CW00(Computing with Words prototipo 0 - versión 0) que hemos construido para representar conocimiento impreciso a partir de las propuestas del capítulo anterior. En el capítulo 6 sacaremos las conclusiones que se deriven de la revisión de las teorías de conjuntos borrosos y su mejor adecuación para la representación del conocimiento, siendo CW00 a la vez un buen ejemplo del uso simultaneo de diversas teorías y un sistema para experimentar con los conjuntos borrosos en el lenguaje

    The Devil is in the Decoder: Classification, Regression and GANs

    Full text link
    Many machine vision applications, such as semantic segmentation and depth prediction, require predictions for every pixel of the input image. Models for such problems usually consist of encoders which decrease spatial resolution while learning a high-dimensional representation, followed by decoders who recover the original input resolution and result in low-dimensional predictions. While encoders have been studied rigorously, relatively few studies address the decoder side. This paper presents an extensive comparison of a variety of decoders for a variety of pixel-wise tasks ranging from classification, regression to synthesis. Our contributions are: (1) Decoders matter: we observe significant variance in results between different types of decoders on various problems. (2) We introduce new residual-like connections for decoders. (3) We introduce a novel decoder: bilinear additive upsampling. (4) We explore prediction artifacts

    LSDA: Large Scale Detection Through Adaptation

    Full text link
    A major challenge in scaling object detection is the difficulty of obtaining labeled images for large numbers of categories. Recently, deep convolutional neural networks (CNNs) have emerged as clear winners on object classification benchmarks, in part due to training with 1.2M+ labeled classification images. Unfortunately, only a small fraction of those labels are available for the detection task. It is much cheaper and easier to collect large quantities of image-level labels from search engines than it is to collect detection data and label it with precise bounding boxes. In this paper, we propose Large Scale Detection through Adaptation (LSDA), an algorithm which learns the difference between the two tasks and transfers this knowledge to classifiers for categories without bounding box annotated data, turning them into detectors. Our method has the potential to enable detection for the tens of thousands of categories that lack bounding box annotations, yet have plenty of classification data. Evaluation on the ImageNet LSVRC-2013 detection challenge demonstrates the efficacy of our approach. This algorithm enables us to produce a >7.6K detector by using available classification data from leaf nodes in the ImageNet tree. We additionally demonstrate how to modify our architecture to produce a fast detector (running at 2fps for the 7.6K detector). Models and software are available a
    corecore